Γιατί οι εικόνες AI στο Facebook μας ξεγελούν πιο εύκολα απ’ όσο νομίζουμε
Πώς η τεχνητή νοημοσύνη εκμεταλλεύεται το συναίσθημα για να κάνεις like.
Οι εικόνες που δημιουργούνται από τεχνητή νοημοσύνη στο Facebook δεν φαίνονται απλώς ρεαλιστικές, αλλά ενεργοποιούν έντονα συναισθήματα. Θέματα όπως η νοσταλγία για την επαρχία, η μοναξιά ή τα παιδιά σε ανάγκη παρακάμπτουν την κριτική σκέψη και οδηγούν σε αυθόρμητες αντιδράσεις. Ο χρήστης δεν «αναλύει» την εικόνα, αλλά συνδέεται συναισθηματικά μαζί της, κάτι που αυξάνει την πιθανότητα like, share ή σχολίου, ακόμα κι αν το περιεχόμενο δεν είναι αληθινό.
Πώς λειτουργεί το συναισθηματικό clickbait στις εικόνες AI
Όπως διαβάζουμε στο PsyPost, σημαντικό ρόλο παίζουν τα λεγόμενα content farms, σελίδες που παράγουν μαζικά τέτοιο υλικό με μοναδικό στόχο το engagement και τα έσοδα από διαφημίσεις. Η τεχνητή νοημοσύνη έχει μειώσει δραστικά το κόστος και τον χρόνο παραγωγής εικόνων, επιτρέποντας τη βιομηχανοποίηση του clickbait. Δεν απαιτείται ποιότητα ή ακρίβεια, αρκεί μια εικόνα και μια λεζάντα που «χτυπά» στο συναίσθημα για να λειτουργήσει.
Οι ερευνητές μελέτησαν πραγματικές εικόνες και αληθινά σχόλια χρηστών. Παρατηρώντας δημόσιες σελίδες, επέλεξαν εκείνες που παρουσίαζαν συστηματικά ύποπτο περιεχόμενο και κατέληξαν σε εκατοντάδες που είχαν επιβεβαιωθεί ως τεχνητά παραγόμενες. Το ενδιαφέρον δεν ήταν αν υπήρχαν τεχνικά λάθη, αλλά πώς οι άνθρωποι αντιδρούν σε αυτές και γιατί τις αποδέχονται ως πραγματικές.
Οι παγίδες που μας κάνουν να πιστεύουμε το ψέμα
Ένα από τα πιο αποκαλυπτικά ευρήματα είναι ότι δεν χρειάζονται ιδιαίτερα «τέλειες» εικόνες για να πειστεί το κοινό. Ακόμα και εμφανώς πρόχειρες ή ατελείς προκαλούν ισχυρές αντιδράσεις, όταν συνοδεύονται από μια συγκινητική ιστορία. Το συναίσθημα λειτουργεί ως φίλτρο που μειώνει την προσοχή στις λεπτομέρειες και κάνει τα λάθη σχεδόν αόρατα στον μέσο χρήστη.
Καθοριστικό ρόλο παίζουν οι προκαταλήψεις και η επιβεβαίωση ήδη υπαρχουσών πεποιθήσεων. Όταν μια εικόνα ταιριάζει με όσα κάποιος πιστεύει ή θέλει να πιστεύει, είναι λιγότερο πιθανό να την αμφισβητήσει. Η εξιδανίκευση του παρελθόντος ή της «απλής ζωής» ενισχύει αυτή τη διαδικασία και δημιουργεί έναν φαύλο κύκλο αποδοχής και αναπαραγωγής ψευδούς περιεχομένου.
Η κοινωνική επιβεβαίωση αποδεικνύεται εξίσου ισχυρή. Όταν μια ανάρτηση έχει ήδη χιλιάδες αντιδράσεις και σχόλια, θεωρείται αυτομάτως αξιόπιστη. Τα σχόλια λειτουργούν σαν μηχανή παραγωγής αξιοπιστίας, ειδικά όταν περιλαμβάνουν ευχές, προσευχές ή συγκινητικές απαντήσεις. Έτσι, νέοι χρήστες συμμετέχουν χωρίς δεύτερη σκέψη, ενισχύοντας περαιτέρω την απάτη.
Τι μπορούμε να κάνουμε για να μην πέφτουμε θύματα
Το άρθρο καταρρίπτει την ιδέα ότι μόνο συγκεκριμένες ομάδες, όπως οι μεγαλύτεροι σε ηλικία ή οι λιγότερο εξοικειωμένοι με την τεχνολογία, πέφτουν θύματα. Η ευαλωτότητα είναι συγκυριακή και εξαρτάται από το πλαίσιο, τη συναισθηματική κατάσταση και τον τρόπο που λειτουργεί η πλατφόρμα. Ακόμα και έμπειροι χρήστες πέφτουν θύματα όταν το περιεχόμενο αγγίζει προσωπικές αξίες.
Το βασικό συμπέρασμα είναι ότι η τεχνητή νοημοσύνη δεν εφηύρε τη χειραγώγηση, αλλά την έκανε μαζική και πιο αποτελεσματική. Αν αυτό συνεχιστεί ανεξέλεγκτα, απειλείται η εμπιστοσύνη συνολικά στο ψηφιακό περιεχόμενο. Η λύση δεν είναι ο πανικός, αλλά η ενίσχυση της ψηφιακής παιδείας, με απλά εργαλεία αναγνώρισης και μεγαλύτερη επίγνωση του πώς τα συναισθήματά μας μπορούν να γίνουν όπλο χειραγώγησης.
Η μελέτη δημοσιεύεται στο περιοδικό Computers in Human Behavior.